Mathematical Neuroscience (2020)
YS591
YRM71 数理脳科学(2020)
It is required that you can explain problem settings, procedures of the computer experiment, and the experiment results without seeing almost anything.
問題設定,計算機実験の手順,計算機実験の結果を,自分の書いたレポートを片手に,ほぼ何もみないで説明できるレベルに到達できていること.
Even with a simple task, when you write the code from scratch and perform experiments, many questions must arise. Please report them.
単純な課題でも,自分でゼロからコードを書いて実験してみると,いくつもの疑問が湧いて出てきます.それをレポートに書いてください.
Backpropagation
It may be not easy to reproduce results even when we know it works,
What shoud we do when we don't know it works or not?
Rumelhart, D.E., Hinton, G.E. & Williams, R.J. Learning representations by back-propagating errors. Nature 323, 533--536 (1986).
https://gyazo.com/031bde631d22496c9da8bfbb4483bf06https://gyazo.com/18e80d7dc71fda10f598af3e68767841
https://gyazo.com/1836e88d101349f201b30b1ae7f48777
https://gyazo.com/a919389e3fc878986c04835748e869e7
Geman, S., Bienenstock, E., & Doursat, R. Neural Networks and the Bias/Variance Dilemma. Neural Computation, 4. 1-58 (1992).
https://gyazo.com/7d5601791c48935defabf6c148b45542https://gyazo.com/b00284d429680ff0156150b3b756275bhttps://gyazo.com/ad2421e7beebaa2ce8130d9cf2171135
Tesauro, G. & Sejnowski, T.J. A parallel network that learns to play backgammon. Artificial Intelligence 39, 357-390 (1989).
https://gyazo.com/4d85fbe947262e0d5e2a323b74ff848bhttps://gyazo.com/6906b0719ae7df69ddf9eb19c7aeaa0fhttps://gyazo.com/de3db6de8a04f1ca4cd149d0f6df540e
https://gyazo.com/0b323bfb38207c427d7129712bf1e634
D. E.Rmnelhart. Theory to practice: A case study-recognizing cursive hardwriting. In Proceedings Of the Third NEC Research Symposium. SIAM, Philadelphia, Pa., pp. 177-196, 1993.
https://gyazo.com/0d0c34d8f30b32c56d587bfd80a7507ahttps://gyazo.com/ffd9efeaff65d381578114e1e0aea3cfhttps://gyazo.com/6041c0b848e177e71bb451a77534cc34
https://gyazo.com/1a052ea27a222d7c75a55ca20fe52e3dhttps://gyazo.com/a777b2a62572ab7f37745efeb4b868ae
Human cognition:
compositionality
roughly: representation through syntactically constrained hierarchy of reusable parts
productivity
roughly: capable of an infinite number of well-formed actions, thoughts, sentences ...
systematicity
roughly: invariance
When false positive occuer.
Associative Memory
https://gyazo.com/0da81df631f0ff917c18a9bf9733a195
How do we know we recall a memory successfully?
Hopfield, J.J. Searching for memories, Sudoku, implicit check-bits, and the iterative use of not-always-correct rapid neural computation. Neural Computation, 20. 1119-1164 (2008).
https://gyazo.com/ed6bf4e318afa12e32f3bfcad150cf11https://gyazo.com/179a49b1a922275c851cf64eb2d9a440https://gyazo.com/60b248fdfa98e50369e9a24c13eb4ba8https://gyazo.com/4d375cd94b75279eeb9b3b03da1a340c
https://gyazo.com/5c4c0d436cfff5e02e64830fdddeb08dhttps://gyazo.com/b61db633952e8c934441c5bb9f1d9c18
https://www.youtube.com/watch?v=RR9VgmDBHfE
Terry Sejnowski on The Unpredictability of the Future - Grand Challenges for Science (13 June 2016)
https://www.youtube.com/watch?v=8NDW2lEM6Ys
William Newsome Part 1: The Biggest Problem
Geman, S. Invariance and selectivity in the ventral visual pathway. Journal of Physiology-Paris 100, 212-224 (2006).
https://gyazo.com/26e0d3fcb2dd6d5f8d4799dad9058865
Associative Memory
Hopfield, J.J., Feinstein, D.L. & Palmer, R.G. 'Unlearning' has a stabilizing effect in collective memories. Nature 304. 158-159 (1983).
Associative Memory
Amari, S. Mathematical foundations of neurocomputing. Proceedings of the IEEE 78, 1443-1463 (1990).
p.1446 III. Statistical Neurodynamics
p.1451 IV. Dynamical Behaviors of Autocorrelation Assicuative Memory
Learning from examples (Backpropagation learning algorithm, Supervised learning)
Amari, S. Mathematical foundations of neurocomputing. Proceedings of the IEEE 78, 1443-1463 (1990).
p.1458 VI. Learning Neural Networks
Sejnowski, T.J. & Rosenberg, C.R. NETtalk: a parallel network that learns to read aloud. Johns Hopkins University Department of Electrical Engineering and Computer Science Technical Report 86/01 (1986). (pdf) 成績評価:レポート 100%
コンピュータプログラムを書く
Web Pages
WebClass:
GiHub:
Topics Covered
本物の脳,人工的なニューラルネットワーク
Real and Artifitial Neural Networks
古典:ニューラルネット研究の歴史.それぞれのモデルの定式化
例からの学習(教師あり学習)
連想記憶モデル
自己組織化のモデル (教師なし学習),自己組織化マップ(SOM)
ボルツマンマシン
強化学習
2つのダイナミックス
活動のダイナミックス (はやい)
学習(重み)のダイナミックス (ゆっくり)
学習のダイナミクス
微分方程式をイメージすればよい.重みの空間をイメージ.
ランダムな初期値
動いていく.
どこかで止まる → (安定平衡状態に収束).
Back-propagation
学習アルゴリズムを導出
コードをゼロから書く。
XOR 問題
例からの学習(教師あり学習,パーセプトロンなど)\cite{rumelhart86b,amari89a}}
【問題設定】
入力とそれに対する望ましい出力(教師信号)のペア$ (x^1, y^1),(x^2, y^2), \cdots (x^m, y^m) が多数($ m 個)与えられているとする.ここで $ (x, y) はある確率分布 $ \Pr(x,y) にしたがっているとする.このとき $ x^\alpha を入力すると, $ y^\alpha を出力するような回路を作りたい ($ \alpha=1,2,\cdots,m ).目的は,与えられた例題に対してだけではなく,望ましい出力が与えられていない未知の入力 $ x に対しても,正しい答え $ y を出力できる回路を作ることである.「問題の本質」がどこにあるのか分からない場合に使える.
Least-Squares Learning and Regression
A typical learning problem might involve a feature or input vector $ x, a response vector $ y, and the goal of learning to predict $ y from $ x, where the pair $ (x, y) obeys some unknown joint probability distribution, $ P.
A training set $ (x_1, y_1),\cdots, (x_n, y_n) is a collection of observed $ (x, y) pairs containing the desired response $ y for each input $ x.
Usually these samples are independently drawn from $ P, though many variations are possible.
For clearer exposition, we will take $ y = y to be one-dimensional, although our remarks apply more generally.
The learning problem is to construct a function (or "machine") $ f(x) based on the data $ (x_1, y_1), \cdots , (x_n, y_n), so that $ f(x) approximates the desired response $ y.
Typically, $ f is chosen to minimize some cost functional.
For example, in feedforward networks (Rumelhart et al. 1986a,b), one usually forms the sum of observed squared errors,
$ \sum_{i=1}^N (y_i - f(x) )^2
and $ f is chosen to make this sum as small as possible. Of course $ f is really parameterized, usually by idealized "synaptic weights."
(These sentences are from Geman et al. 1992)
単純な課題でも,自分でゼロからコードを書いて実験してみると,いくつもの疑問が湧いて出てくる.
要点
単純な課題でも,自分でゼロからコードを書いて実験してみると,いくつもの疑問が湧いて出てくる.
隠れ層の素子数2では,結合係数の初期値を変えて1000通り試しても,このような回路は発見できない?
本当に発見できない?
「学習できない」とは?
「学習が終わらない」→「学習が終わる」とは?
プログラムのバグ?
横軸に時間 t,縦軸に E をとり,描いてみる.E が減っていけば,とりあえず OK.
結合係数の初期値を論文に書かれている値を設定する.壊れていけば(Eの値が上昇?),どこか間違えている.
https://gyazo.com/031bde631d22496c9da8bfbb4483bf06https://gyazo.com/18e80d7dc71fda10f598af3e68767841
https://gyazo.com/1b4aac2bd9281b6af9ee984b4cf2c52d
Rubyで数独:AIプログラミング入門(近代科学社,佐藤理史 著)
https://gyazo.com/2823139fcc173fbf4603b20fb2457234